文件曝光fb內部測試 證演算法「導人向激進」

【社交网媒】近期備受醜聞和揭密困擾的全球最大社交平台facebook(fb)上周五(22日)再爆出連串醜聞。美國多家傳媒聯合報道,早前公開爆料指控fb為了盈利蓄意隱瞞問題的吹哨人公開更多文件,指fb內部進行的研究發現,其人工智能演算法會引導用戶激進化,有例子顯示測試用的新帳戶短短幾日就被fb建議加入極右組織,頁面充斥激進內容。另外,再多一名fb吹哨人指控fb知道高層漠視和淡化仇恨言論,亦明知有極右組織利用fb推動進行1月6日國會山莊騷亂。

37歲的fb前產品經理豪根(Frances Haugen)本月初上國會參議院聽證會大爆fb唯利是圖,不惜漠視其演算法加劇分化和負面思想的問題。多家傳媒從豪根手中取得文件後集體分析,並於上周五聯合發表新一輪報道。報道指出,fb內部研究文件指公司深知其應用程式和服務對人們造成的損害,但不單止沒有公開承認,亦沒有嘗試修正。

明知問題拒認 未嘗試修正

美國全國廣播公司(NBC)報道,fb於2019年夏天進行一項實驗,研究人員模擬一個名為史密斯(Carol Smith)的白人母親開設帳戶,登記時自稱是來自美國北卡羅萊納州的保守派,並點選了「對政治、育兒有興趣」、「基督教」等選項,然後點選追隨時任總統特朗普和被視為保守派的傳媒霍士新聞。文件顯示,雖然「史密斯」從未表示對陰謀論有興趣,但在帳戶開設短短2日內,fb就在其個人頁面向她建議加入與陰謀論組織QAnon相關的極右群組。史密斯沒有理會,但fb演算法續將相關資訊灌輸給她,一周內其帳戶就充斥那些涉嫌違反fb守則的組織之貼文和專頁,包括「極端、陰謀論式和令人驚嚇的內容」。

fb反駁指核心假定錯誤

根據曝光文件,除了史密斯,fb研究人員在2019至2020年間也創製其他「測試用戶」帳戶,以了解fb透過其建議系統誤導和分化用戶的情况。研究小組在報告稱,測試持續發現fb將一些用戶推向極端,直至去到充斥暴力陰謀論的狹窄角落內,有一小部分人因此被激進化。

fb發表聲明,稱有關報道的核心假定錯誤,強調雖然fb要賺錢,但如果認為這是要用人們安全和福祉去換取,是誤解fb商業利益所在。發言人說:「雖然這(史密斯)只是一個虛構用戶的研究,但這正是公司致力改善系統、協助為我們決定移除QAnon的一個完美例子。」

文件顯示,到去年夏天,fb仍是數以千計合共有數以百萬計粉絲的QAnon組織專頁之「宿主」,直至後來備受爭議才封鎖這些專頁。文件引述一名早前離開fb的研究員質疑fb行動速度太慢,「我們超過一年前已知道,我們的建議系統可以很快令用戶墮進陰謀論和組織的方向」。

Twitter認演算法助長右翼 承諾改善

網絡監察智庫「史丹福互聯網觀測平台」(SEI)技術研究經理迪雷斯塔(Renée DiResta)說,這些文件相當於確認外界研究人員多年來所指、但fb一直否認的演算法問題,「fb基本上就是協助組成一個教派」。

另一社交平台Twitter上周五(22日)發表27頁報告,承認分析過7個國家(英美加法德日和西班牙)民選官員的貼文後發現,其演算法在德國以外6個國家,都傾向推高右翼政客的言論,右派傳媒的報道亦似乎獲較多重視。Twitter表示未知其演算法出現偏差原因,但承諾會改善。

(NBC/衛報/紐約時報)

新舉報者揭fb未阻極右推動國會山莊騷亂

【另訊】繼豪根之後,上周五(22日)再多一名吹哨人加入指控fb,稱fb高層着重利益,漠視和淡化該平台上充斥仇恨言論和不法活動,亦明知有極右組織利用fb推動進行1月6日國會山莊騷亂也沒有盡力處理。有關說法與豪根早前指控fb為利是圖的說法基本脗合。

美國《華盛頓郵報》報道,該名新匿名吹哨人已將相關文件和投訴提交予美國證券交易委員會(SEC)。該名fb前員工在5頁訴狀指出,fb經常阻礙對付誤導性資訊、仇恨言論和其他問題內容,例如在fb群組內出現的非法活動(恐怖分子內容、販毒等),高層拒絕執行fb的安全規則,以免觸怒時任總統特朗普和其盟友,繼而影響公司成長。

吹哨人又提到fb沒有適當監管群組,特別是那些只可以靠現有成員邀請加入的對外封閉式群組,這些秘密群組無法從普通搜尋中找到,往往容許不當行為滋生。

fb發言人發表聲明回應稱,有關報道來自單一消息來源,並作出廣泛指控,這做法是「危險先例」。

(華盛頓郵報/衛報)

Related posts